Encore un nouveau comité de sécurité chez OpenAI
Le 17 septembre à 15h18
2 min
IA et algorithmes
IA
L'entreprise a publié lundi 16 septembre un billet de blog pour annoncer des changements dans son comité de sécurité. OpenAI avait créé ce comité en mai dernier alors que son équipe chargée de contrôler les IA et de préparer l'éventuel avènement d'une intelligence artificielle générale (AGI) s'était autodétruite.
Exit Sam Altman, le CEO de l'entreprise ainsi que Bret Taylor, son président. Le comité sera maintenant présidé par Zico Kolter, chercheur en machine learning à l'université de Carnegie Mellon.
Paul Nakasone, Nicole Seligman et Adam D’Angelo feront aussi partie de ce comité. Le premier est un général et ancien responsable de la NSA, maintenant à la retraite. Nicole Seligman est une avocate qui a notamment représenté Bill Clinton dans son procès en destitution. Elle a aussi été vice-présidente exécutive de Sony. Enfin, Adam D’Angelo est le CEO de Quora.
Ce comité n'aura plus seulement le rôle de faire des recommandations à l'entreprise, mais aussi d'exercer un contrôle sur la publication de nouveaux modèles, et devrait pouvoir imposer qu'ils ne soient pas rendus disponibles publiquement avant que les problèmes de sécurité ne soient résolus.
L'entreprise qualifie maintenant ce comité d' « indépendant ». Ces changements arrivent, comme le remarque TechCrunch, après que des sénateurs américains ont posé des questions cet été sur la gestion des questions de sécurité par OpenAI.
Le 17 septembre à 15h18
Commentaires (1)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 17/09/2024 à 18h45
https://arstechnica.com/information-technology/2024/09/openai-threatens-bans-for-probing-new-ai-models-reasoning-process/
Bannissement des utilisateurs qui essaient de découvrir le fonctionnement du nouveau modèle. C’est très rassurant, hein ?